'인공지능 AI 연구의 대부'로 꼽히는 제프리 힌턴 교수가 AI의 위험성을 알리기 위해, 10년 이상 몸담았던 구글을 떠났습니다. <br /> <br />그는 AI 기술이 적용된 '킬러 로봇'이 현실이 되는 날이 두렵다고 했는데요. <br /> <br />제프리 교수는 1972년부터 AI를 연구하며 딥러닝 개념을 처음 고안했지만, 지금은 평생을 바친 연구를 후회한다고 합니다. <br /> <br />그는 "AI가 생성한 가짜 사진과 동영상, 글이 넘쳐나며 사람들은 더는 무엇이 진실인지 알 수 없게 될 거라고" 말했는데요. <br /> <br />챗GPT 등이 인간의 업무 능력을 보완하기도 하지만 비서나 번역가 등을 대체할 수 있다며, AI 기술이 노동시장에 미칠 영향에 대해서도 우려했습니다. <br /> <br />또 당초 "AI가 사람보다 똑똑해지려면 30~50년, 또는 그보다 더 오랜 시간이 걸릴 거"라고 봤지만 이제 일부 기능에서는 인간의 지능을 넘어서기 시작했다고 평가했는데요. <br /> <br />그러면서 비밀리에 개발해도 타국의 추적이 가능한 핵무기와 다르게, AI는 규제가 도입되더라도 기업이나 국가 차원의 연구가 계속될 가능성이 있다는 점이 우려된다고 주장했습니다. <br /> <br />이어 "구글과 마이크로소프트 등의 경쟁은 글로벌 규제 없인 멈추지 않을 것"이라며, "AI 분야에 국제적인 규제가 필요하다"고도 주장했는데요. <br /> <br />오픈AI의 공동 창업자였던 일론 머스크 역시 AI의 잠재적 위험성을 경고하면서 AI 개발에 규제가 필요하다고 주장해왔죠. <br /> <br />그는 "AI는 선과 악을 행하는 거대한 힘을 갖고 있다"면서, "AI에 대한 선의의 의존조차도 기계 작동법을 잊어버릴 정도가 되면 인류문명에 위험할 수 있다"고 경고했습니다. <br /> <br />때마침 유럽연합과 주요 7개국 등 세계 곳곳은 AI 규제 관련 논의에 착수했지만, 규제 강도는 제각각입니다. <br /> <br />유럽은 챗GPT 같은 생성형 AI를 고위험 도구로 분류해 엄격한 규제 대상으로 삼는 방안을 논의 중인데요. <br /> <br />하지만 미국과 일본은 기업의 자율 규제와 활용에 무게를 두면서 법적 규제에 신중한 모습입니다. <br /> <br />빅테크 기업들의 인공지능 개발 경쟁에 불이 붙은 가운데, AI의 순기능은 살리면서도, 예상되는 사회적 문제점은 제도로 보완하기 위한 논의는 이제 겨우 시작인데요. <br /> <br />인공지능이 우리에게 던진 이 쉽지 않은 숙제에 대해 앞으로 어떤 해법이 도출될 수 있을지 주목됩니다.<br /><br />▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202305041125521309<br />▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424<br /><br />▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs<br /><br />[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]